home *** CD-ROM | disk | FTP | other *** search
/ Power Tools 1993 October - Disc 2 / Power Tools (Disc 2)(October 1993)(HP).iso / hotlines / network / nw900s / script5.txt < prev    next >
Text File  |  1993-02-19  |  20KB  |  396 lines

  1. HP Confidential                                 Hewlett-Packard Company
  2.  
  3. Version: July 24, 1992
  4.  
  5. Netware/iX Performance Patch LAN Labs Benchmark Results Version:
  6. July 24, 1992
  7.  
  8. Summary
  9. This report summarizes the performance testing of the Netware/iX
  10. Performance Patch using the LAN Labs Benchmarks from PC Magazine.
  11. These results are correlated with the previous testing on earlier
  12. versions of Netware/iX, Netware/9000, and Netware running on Intel
  13. platforms.
  14.  
  15. Results
  16. Overall there have been major improvements in Netware/iX's file sharing
  17. performance which met the goals set for this product.  In the single
  18. user case (called "no load" in the accompanying tables and graphs)
  19. Netware/iX is able to deliver 81% of the performance of a Netware 3.11
  20. server running on a Vectra 486/25. CPU utilization was at 5%.  The best
  21. results however are seen under load conditions.  As benchmark clients
  22. were added to Netware/iX running on a 917 it degraded more slowly than
  23. any other platform.  At five benchmark client loads it was is the best
  24. Netware server tested.  Specifically it was marginally better than the
  25. 486 and 386 servers, 28% better than the HP9000 720, and 265% better
  26. than the HP9000 807 running Netware/9000.
  27.  
  28. Your Mileage May Vary
  29. These results are duplicable on the test platform described later in
  30. this document, however, the reader must be aware that a specific user
  31. environments may see either better or worse results than what is
  32. described here based on what the user is doing and the environment on
  33. the system.  The interpretation section below should help in
  34. understanding what conditions may lead to different results.
  35. The improvements in Netware/iX will only be available on an NIO system.
  36. The best performance will be seen on NOVA class SPUs.
  37.  
  38. Put All Your Eggs in One Basket, and Watch That Basket
  39. The goal of the Netware/iX Performance Patch was to improve the file
  40. server performance, specifically the read/write path, since the vast
  41. majority of user work is done here.  The SPX IPC API, the printer
  42. spooler, and all directory functions were improved some, but not to the
  43. degree of the read/write path improvements.
  44.  
  45. Measured Systems
  46. The following tables and graphs contain measurements from previous
  47. tests as well as the results being reported here.  The entry "917 FP"
  48. indicates Netware/iX with the "Fast Path" code turned on. This is the
  49. Netware/iX Performance Patch software.  Previous tests using the "917
  50. SP" and "967 SP" were done earlier this year and used the "Slow Path"
  51. code prior to the performance patch software.  These results are
  52. reported to show the improvement of the Fast Path code.  For
  53. comparison, the benchmarks were run against a 386 and a 486 running
  54. Netware 3.11, the current product from Novell, as well as against the
  55. HP9000 807 (which uses the same processor board as the 917) and the 937
  56. (which uses the Nova 2.3 processor board).  The number of loads was
  57. from a single measurement system (the "no load" case), to the
  58. measurement system and ten additional loads.
  59.  
  60. Throughput
  61. Since throughput is usually the first thing we are asked about, here
  62. are the numbers.  There are several things which can be seen here.
  63. First, as mentioned above, in the single user case (call "no load") the
  64. performance of Netware/iX in this benchmark is close to the 486, 386,
  65. and HP9000 720, while it is better than the HP900 837, 817, and 807
  66. (which uses the same processor board as the 917).  The better news is
  67. that at five loads Netware/iX out performs the 720, and marginally
  68. exceeds the 486. In the accompanying tables, the systems tested are
  69. listed in order of best performance for the five load case.  "FP"
  70. stands for fast path, or the Netware/iX Performance Patch, and "SP"
  71. stands for slow path or the Netware/iX product prior to the performance
  72. enhancements.
  73.                         LAN     Labs    PC    Benchmark     Tests
  74.  
  75.                         Throughput                   (KBytes/sec)
  76.  
  77.         917 FP  486/25  386/25  720     837     817     807     917 SP
  78. No Load 283     349     329     366     251     219     185     115
  79. 1       256     315     292     304     215     184     159     72
  80. 2       241     288     250     234     186     162     121     47
  81. 3       234     250     238     238     167     146     92      34
  82. 4       222     226     210     224     151     133     72      27
  83. 5       219     211     198     171     141     131     60      22
  84. 6       218                     165     135     113
  85. 10      204                     159     121
  86.                     Italicized      Entries     are      Extrapolations
  87.  
  88.  
  89.  
  90. CPU Utilization
  91.  
  92. The observed CPU utilization is documented in the following table and
  93. graph.  In the table the systems tested are listed in order of best
  94. performance for the five load case.  The important item to note is that
  95. the 917 has lower CPU utilization than the 807 which is its peer with
  96. regards to processor board.  The only metric where the 837 out
  97. performed the 917FP was in CPU utilization, which is to be expected
  98. since the 837 uses the Nova 2.3 SPU as compared to the 1.0 SPU of the
  99. 917 and 807.
  100.  
  101. The very low CPU utilization of the 486 under load indicates that for
  102. the platform being tested that there is a bottleneck other than the CPU
  103. which is limiting server performance.
  104.  
  105.  
  106.  
  107.                         LAN       Labs       PC      Benchmark   Tests
  108.  
  109.                         CPU Utilization
  110.         486/25  837     386/25  917 FP  817     720     807     917 SP
  111. No Load 28%     20%     50%     5%      33%     43%     50%     80%
  112. 1       29%     38%     56%     29%     55%     66%     75%     100%
  113. 2       30%     50%     62%     55%     78%     82%     98%     100%
  114. 3       31%     58%     68%     63%     85%     88%     100%    100%
  115. 4       32%     70%     73%     77%     92%     90%     100%    100%
  116. 5       33%     72%     80%     86%     95%     97%     100%    100%
  117. 6               72%             88%     99%     99%
  118. 10              77%             100%            100%
  119.                     Italicized      Entries     are      Extrapolations
  120.  
  121.  
  122.  
  123. Server Degradation with Offered Load
  124. The observed client throughput degradation is documented in the
  125. following table and graph.  The systems tested are listed in order of
  126. best performance for the 5 load case.  This measures the rate at which
  127. the server is slowing down due to increased load.  The important item
  128. to note here is that the 917 FP is degrading slower than all other
  129. platforms.  This would indicate that until the SPU reached near 100%
  130. CPU utilization that the 917 FP would be able to gain and surpass the
  131. performance of the 486 which was tested.  This is good news for the
  132. scalability of Netware/iX on the high end Nova boxes where additional
  133. CPU is available to the product beyond the 917's capacity.
  134.  
  135.                          LAN       Labs       PC     Benchmark    Tests
  136.  
  137.                     Throughput  Degradation  as  Compared  to  No  Load
  138.  
  139.         917 FP  486/25  386/25  817     837     720     807     917 SP
  140. No Load 100%    100%    100%    100%    100%    100%    100%    100%
  141. 1       91%     90%     89%     84%     86%     83%     86%     63%
  142. 2       85%     82%     76%     74%     74%     64%     65%     41%
  143. 3       83%     72%     72%     67%     66%     65%     50%     30%
  144. 4       78%     65%     64%     61%     60%     61%     39%     24%
  145. 5       77%     61%     60%     60%     56%     47%     32%     20%
  146. 6       77%                     52%     54%     45%
  147. 10      72%                             48%     43%
  148.  
  149. Improvement
  150. The following graph shows that our improvement over the slow path
  151. product scales dramatically.  There are two reasons for this. First,
  152. under the previous product, we consumed the 917 CPU with a single load,
  153. whereas the fast path code has CPU to spare.  Further, the NIO LAN card
  154. latency problem, which would prevent even an infinitely fast SPU from
  155. matching the performance of the 486 is less apparent under load.
  156. Whereas the 486, with its fast LAN card will degrade at each new load,
  157. the bottleneck on MPE/iX is the LAN card and the CPU is able to keep up
  158. with the load in the tests.
  159.  
  160. Interpretation
  161. Description of Netware/iX Fast Path Code.  Briefly, the fast path code
  162. implements a scheme similar to native Netware itself to gain
  163. performance, specifically, large amounts of file data are cached in
  164. physical memory eliminating the need to access the file system for most
  165. reads and writes.  On MPE/iX this is implemented as an extension to the
  166. LAN driver through a modification of the LAN Access (LA) interface.
  167. File reads and writes occur to the cached file data in physical memory
  168. rather than to the file on disc.  As a result of the fast path code
  169. existing as an extension to the LAN driver, the access to the cached
  170. file data occurs on the Interrupt Control Stack (ICS), outside of the
  171. process environment of MPE, eliminating dispatcher calls and pre-
  172. empting from MPE.  The net result of this is that access for reads and
  173. writes is very fast.  In addition to the file access improvements,
  174. Quest modified their code to eliminate some of the previously known
  175. bottlenecks.  These improvements were primarily in directory access,
  176. caching disc requests, and pre-allocating file opens.  No changes were
  177. made to the SPX Interprocess Communication (IPC) or to the print
  178. spooling and sharing features.
  179.  
  180. Description of test environment
  181. The full environment for testing is described in Appendix A below.  In
  182. brief, there is a single PC, in this case an IBM PS/2 Model 70, which
  183. measures its individual throughput while other PCs add load to the
  184. server.  The throughput of the measurement PC is the number reported
  185. above. As more PCs add load to the server, the server attempts to meet
  186. the increased load requirements, reducing the load provided to the
  187. measurement PC.  This is seen as degraded throughput performance to the
  188. measurement PC reported above.
  189.  
  190. Factors which may change the observed performance
  191.  
  192. Memory allocated per client connection.
  193. One key factor to gaining the maximum performance is the amount of
  194. memory dedicated to each client connection.  The amount of physical
  195. memory allocated to each client is globally configurable (one setting
  196. applies to all clients).  Reducing frozen size below working set size
  197. will cause slower performance as the server goes into the process
  198. environment to update the working set.  Two factors, this will slow the
  199. server down as the OS overhead is now much larger, and second, the
  200. other processes of the system with the same or higher priority will now
  201. be able to contend with the server.  This may or may not be desirable
  202. to the tuning of the server and the system, and weighing the overall
  203. system goals.
  204.  
  205. Single user throughput will not meet the single user throughput of the
  206. Intel server
  207.  
  208. The latency of the NIO LAN card is greater than the entire LAN and
  209. processing time of the 486.  This means that in the single user case,
  210. an NIO system will never meet the performance
  211. Conditions under which better performance will be seen
  212. Strictly read/write.
  213.  
  214. Since the code for Netware/iX fast path deals only with the read/write
  215. path and files cached in memory, applications which open files and
  216. leave them open for a long time will have better performance than
  217. applications which open many small files and jump back and forth.
  218. Windows is an example of a program which opens many small files.
  219. Working Set of the Cached File Matches the Amount of Memory Allocated
  220. by Netware/iX.
  221.  
  222. Since each client connection is allocated a block of physical memory
  223. for file caching, better performance will be seen when the size of
  224. these block of memory matches the working set of the file opened.  For
  225. example if the file being accessed is 500KBytes, but only 50KBytes are
  226. consistently accessed, then allocating the small amount will provide a
  227. good match between the client requirements and server resources.
  228. However, if the entire file is being accessed, such as in the case of
  229. random access of a database file, then the larger amount would better
  230. suit the client access.  One of the implications of a small memory
  231. allocation to the clients is heavier use of the "slow path" code to
  232. access the actual data file and bring it into memory.  Two possible
  233. side effects would be increased CPU utilization and decreased
  234. throughput.
  235.  
  236. Large reads (eg. loading data, program load)
  237. Large data reads, such as during a program load, or reading a large
  238. spreadsheet into a program, will provide better performance than many
  239. small reads.
  240.  
  241. Large writes (eg. writing a data file)
  242. Large data writes, such as writing a document out of a word processor,
  243. will provide better performance than many small writes to several
  244. files.
  245.  
  246. Conditions which will degrade performance results
  247. Random access of file beyond the amount of memory frozen for the client
  248. Where file access requires a "search" or where file access occurs
  249. outside of the data cached in memory, the "slow path" code is invoked
  250. resulting in slower performance and increased CPU utilization.
  251. Directory operations (eg. new directory, new file, moving files,
  252. copying directory structures)
  253. All directory operations use the "slow path" code which uses actual
  254. disc IO and is not cached. Heavy usage of directory calls, such as in
  255. copying an entire directory structure, will result in decreased
  256. performance.
  257.  
  258. API usage
  259. No optimization of the SPX or NetBIOS APIs was done in this project.
  260. The APIs will use the previous version of code and will result in
  261. overall slower performance due to the increased load that they put on
  262. the system.
  263.  
  264. Print Spooling
  265. No optimization of printer spooling was done in this project. Heavy use
  266. of the print spooler will result in overall slower performance due to
  267. the increased load that they put on the system.
  268.  
  269. Extrapolations
  270.  
  271. Scalability of Higher Capacity SPUs.
  272. Given that the throughput degradation on the 917 was directly related
  273. to the CPU consumption, we anticipate that Netware/iX will be highly
  274. scalable to higher capacity SPUs.  The effect which the user will see
  275. however is not increased speed, but increased capacity. With the 967
  276. SPU (the 2.3 Nova SPU), we would expect to see a commensurably lower
  277. CPU utilization and less degradation in the benchmark environment.
  278. This would result in increased capacity.  Again, the NIO LAN card
  279. latency would prevent improved single user throughput from being seen
  280. on the higher capacity SPUs.
  281.  
  282.  
  283.  
  284. Appendix A: Description of Test Platforms
  285.  
  286.  
  287.  
  288. Load Measuring Client
  289.          IBM PS/2 Model 70
  290.          8Mbytes RAM
  291.          3COM 3C523 LAN Card
  292.  
  293. Vectra 486 Server, 25 Mhz1
  294.          Netware 386 version 3.11
  295.          12 Mbytes of RAM
  296.          ISA ESDI disc controller2
  297.          1 EISA LAN card3
  298.  
  299. HP 3000 917 Server (This server used the Nova 1.0 board, although the
  300. chassis and memory configuration may have been closer to the standard
  301. 947 configuration.)
  302.          Netware/XL A.01.01 based on Portable Netware 3.01b for Slow
  303.            Path results
  304.          Netware/XL A.01.08 002 based on Portable Netware 3.01b and
  305.             MPE/iX 3.1 for Fast Path results
  306.          40 Mbytes of RAM
  307.          32 Kbytes I cache
  308.          64 Kbytes D cache
  309.          1 NIO LAN card
  310.  
  311. HP 9000 807 Server
  312.          Netware/9000 based on Portable Netware 3.01b
  313.          48 Mbytes of RAM
  314.  
  315. HP 9000 720 Server
  316.          Netware/9000 based on Portable Netware 3.01b
  317.          48 Mbytes of RAM
  318.  
  319. Load Producing Clients
  320.          1st load: Compaq 386/20 or Vectra 386/20N
  321.          2nd load: Compaq 386/25 or Vectra RS/25C
  322.          3rd load: Vectra QS/20
  323.          4th load: Vectra QS/20
  324.          5th load: Vectra ES/12
  325.          6th load: Vectra Classic
  326.          loads  7  through  10 using whatever PCs we can  find
  327.                 including a Compaq, Vectra 486, and Vectra Classics
  328.  
  329. Appendix B: Description of Benchmark Tests
  330.  
  331. Quoting from the benchmark documentation:  "The PC Magazine LAN
  332. Benchmark tests exercise and evaluate networks using tasks identical to
  333. those performed by real applications.  Please note that the results you
  334. get with these and all other performance tests are only comparable to
  335. other tests run under identical conditions.  The CPU power of the PCs
  336. [both servers and clients] running this software is an often-
  337. overlooked factor that is critical to the results you receive.
  338.  
  339. When you run these tests, one network client PC runs the Evaluation
  340. Module of this program while all other PCs run a selection from the
  341. Load Module.  This architecture provides a measurement of what one user
  342. would experience on a crowded network.
  343.  
  344. Remember that just two or three fast PCs running Load programs can use
  345. up a large percentage of the available bandwidth in any 10-16 megabit
  346. per second network."
  347.  
  348. From other sources, we've determined that one load client is roughly
  349. equivalent to 10 to 20 "real" clients on the network.  The load clients
  350. are running far faster than any actual user would be able to work.  The
  351. best way to look at these numbers is to compare similar test conditions
  352. across platforms.  However, before making direct comparisons with other
  353. PC Magazine results you should remember that the mix of slow and fast
  354. clients will affect the results seen at the server.  In order to gain
  355. 100% accuracy, the exact test setup of the article should be
  356. duplicated.  For example, a slow client will make a slow server look
  357. better since throughput is measured at the client and a slow client
  358. would be unable to take advantage of the full potential of a fast
  359. server.  It is our opinion that these results are sufficient for
  360. internal use and comparisons between HP's products and numbers quoted
  361. in PC Magazine.  However, more accurate testing would be required if we
  362. were going to publish these results.
  363.  
  364. Bibliography:  Other Sources for NOS Performance Information
  365. DEC VAX as AppleShare Server - MacUser (an article that appeared
  366. sometime within the last six months).  The VAX was far slower than the
  367. Macintosh II used as a server.
  368. Other Portable Netware Implementations - PC Week; August 19, 1991. The
  369. article compared Portable Netware running on NCR, Prime, and Altos Unix
  370. systems.  The general results were that the Compaq 486/33Mhz was
  371. running about 5 times faster than the Unix systems.  Note that these
  372. tests were not the PC Magazine tests which are described here.  LAN
  373. Manager 2.0 versus Netware 386 3.1 - PC Magazine; December 11, 1990.
  374. This article compared the latest versions (as of that writing) of
  375. Netware and LAN Manager.  The results shows the Netware platform
  376. (Compaq dual 386/33) under no load performing at about 281Kbytes/sec,
  377. and LM 2.0 at 200Kbytes/sec.  Under 5 loads Netware performed at
  378. 270Kbytes/sec and LM 2.0 at 183Kbytes/sec.  The difference between
  379. these numbers and the test results are in the servers used (Compaq dual
  380. 386 versus Vectra 486), version of Netware (3.1 versus 3.11 which did
  381. improve performance), and the difference in clients.
  382. Netware 386 as a Macintosh AppleShare Server - MacUser; November 1991.
  383. Netware 386 running on a Compaq 486/33 was 6 times faster than a
  384. Macintosh IIfx (the current high end Macintosh as of the writing the
  385. article) in the same role.
  386. Intel based Superservers - Data Communications; "Can Superservers Scale
  387. Up to Enterprise Status?", July 1991. Comparing the then current list
  388. of "superservers" and whether they can scale up to handling the data
  389. load then being handled by mini- and mainframe computers.
  390. 1Novell recommends a 33Mhz 486 as a departmental LAN server.
  391. 2This is considered to be a relatively slow disk.  If further testing
  392. is requested, we should move to a SCSI based system.  Novell recently
  393. reported on a Vectra 486/33Mhz with 32bit SCSI controllers at the
  394. Netware for Unix conference in January.
  395. 3This is considered the "fast" LAN card.
  396.